我们通过雷达来解决对象跟踪以及处理异常值的当前最新方法的鲁棒性。标准跟踪算法从雷达图像空间中提取检测到在过滤阶段使用它。过滤由卡尔曼过滤器进行,该滤波器假设高斯分布式噪声。但是,此假设并不能说明大型建模错误,并导致突然动作期间的跟踪性能差。我们将高斯总和过滤器(多假设跟踪器的单对象变体)作为基线,并通过与比高斯更重的分布建模工艺噪声来提出修改。变分贝叶斯提供了一种快速,计算上便宜的推理算法。我们的模拟表明,在存在过程离群值的情况下,稳健的跟踪器在跟踪单个对象时优于高斯总和过滤器。
translated by 谷歌翻译
立体类像素细分旨在通过左右视图将离散的像素分组为感知区域,以更加协作和高效地分组。现有的Superpixel分割算法主要利用颜色和空间特征作为输入,这可能会对空间信息施加强大的约束,同时利用立体声图像对的差异信息。为了减轻此问题,我们提出了一种立体声超级像素细分方法,并在本工作中具有空间信息的脱钩机制。为了解除立体视差信息和空间信息,在融合立体声图像对的特征之前,暂时删除空间信息,并提出了脱钩的立体声融合模块(DSFM),以处理立体声的特征特征特征对齐和遮挡问题。此外,由于空间信息对于超像素分割至关重要,因此我们进一步设计一个动态空间嵌入模块(DSEM)以重新添加空间信息,并且将通过DSEM中的DSEM进行自适应调整空间信息的权重(DF)用于实现更好的细分。全面的实验结果表明,我们的方法可以在KITTI2015和CityScapes数据集上实现最新性能,并且还可以在NJU2K数据集上的显着对象检测中验证效率。源代码将在接受纸张后公开提供。
translated by 谷歌翻译
变压器的令人印象深刻的性能归因于自我注意力,在每个位置都考虑了整个输入之间的依赖性。在这项工作中,我们改革了神经$ n $ gram模型,该模型仅着眼于每个位置的几个周围表示,其多头机制如Vaswani等人(2017年)。通过对序列到序列任务的实验,我们表明,用多头神经$ n $ gram在变压器中替换自我注意力可以比变压器实现可比性或更好的性能。从对我们提出的方法的各种分析中,我们发现多头神经$ n $ gram是互补的,它们的组合可以进一步提高香草变压器的性能。
translated by 谷歌翻译
完全无监督的3D表示学习因其在数据收集方面的优势而引起了人们的关注。一种成功的方法涉及一种观点感知方法,该方法基于生成模型(例如生成对抗网络(GAN))学习图像分布,同时基于3D感知模型(例如,神经辐射场(NERFS))生成各种视图图像。但是,他们需要具有各种视图的图像进行培训,因此,它们在很少或有限的观点的数据集中应用仍然是一个挑战。作为一种补充方法,提出了采用散焦提示的孔渲染gan(AR-GAN)。但是,AR-GAN是基于CNN的模型,尽管其高相关性,但它独立于观点变化代表散焦,这是其性能的原因之一。作为AR-GAN的替代方案,我们提出了一个光圈渲染的NERF(AR-NERF),该启示可以通过在常见的射线追踪框架中代表这两个因素来以统一的方式利用观点和Defocus提示。此外,要以分散的方式学习散热性和独立的表示,我们提出了孔径随机训练,为此我们学会生成图像,同时独立地将光圈大小和潜在代码随机。在实验过程中,我们将AR-NERF应用于各种自然图像数据集,包括花,鸟和面部图像,其结果证明了AR-NERF对深度和散焦效应的无监督学习的实用性。
translated by 谷歌翻译
我们研究了掩盖语言模型(MLMS)的任务无关内在和特定于任务的外在社会偏见评估措施之间的关系,并发现这两种评估措施之间仅存在弱相关性。此外,我们发现在下游任务进行微调期间,使用不同方法的MLMS DEBIAS进行了重新划分。我们确定两个培训实例中的社会偏见及其分配的标签是内在偏见评估测量值之间差异的原因。总体而言,我们的发现突出了现有的MLM偏见评估措施的局限性,并提出了使用这些措施在下游应用程序中部署MLM的担忧。
translated by 谷歌翻译
当我们开发可穿戴辅助设备时,舒适和支持是需要考虑的两个主要问题。在传统的设计方法中,穿着者的联合运动自由度往往是超薄的。因此,佩戴者的运动变得克制,并且在意外下降时可能会发生骨/韧带损伤。为了减轻这些问题,这封信提出了一种由人类脊柱结构和功能的新型联合联系机制。所提出的脊柱状关节连杆机构的关键特征是通过柔性合成纤维线连接到半球形块,使得它们的级联刚度可以根据拉伸力调节。这一功能具有设计可穿戴辅助设备的巨大壮大,可通过调节倾斜刚度来支持老年人的坐足式动作或增加脊柱运动。此外,连接的半球形块使得穿着者能够将他/她的关节移动到全部自由度,这反过来增加了穿着者的流动性并阻止联合未对准。使用试验台和试验机的实验结果证实了脊柱状的接头连杆机构可以用作设计可穿戴辅助装置的关键部件,以便更好地移动和安全性。
translated by 谷歌翻译
互补标签(CL)只是指示一个示例的不正确类,但是使用CLS学习会导致多类分类器可以预测正确的类。不幸的是,问题设置仅允许每个示例一个CL,这特别限制了其潜力,因为我们的标签可能会轻松地将多个CLS(MCL)识别为一个示例。在本文中,我们提出了一个新颖的问题设置,以允许每个示例的MCL和使用MCL学习的两种方法。首先,我们设计了两个将MCL分解为许多单个CLS的包装器,以便我们可以使用CLS学习任何方法。但是,分解后MCL持有的监督信息在概念上稀释。因此,在第二个方面,我们得出了公正的风险估计器。最小化IT处理每组MCL的整体组合,并具有估计误差的结合。我们进一步改善了第二种方法,以最大程度地减少正确选择的上限。实验表明,以前的方式可以很好地与MCL学习,但后者甚至更好。
translated by 谷歌翻译
The stochastic gradient descent (SGD) method and its variants are algorithms of choice for many Deep Learning tasks. These methods operate in a small-batch regime wherein a fraction of the training data, say 32-512 data points, is sampled to compute an approximation to the gradient. It has been observed in practice that when using a larger batch there is a degradation in the quality of the model, as measured by its ability to generalize. We investigate the cause for this generalization drop in the large-batch regime and present numerical evidence that supports the view that large-batch methods tend to converge to sharp minimizers of the training and testing functions-and as is well known, sharp minima lead to poorer generalization. In contrast, small-batch methods consistently converge to flat minimizers, and our experiments support a commonly held view that this is due to the inherent noise in the gradient estimation. We discuss several strategies to attempt to help large-batch methods eliminate this generalization gap.
translated by 谷歌翻译